你的浏览器版本过低,可能导致网站不能正常访问!为了您能正常使用网站功能,请使用这些浏览器。
chrome
Firefox

工具栏

如何看待“华为智驾独一档,智驾出问题很正常”这种言论?


从技术上来讲,智驾出问题很正常的

当然,这里的“问题”需要说明一下:现在的智驾不保证能100%完成所对应的功能,只能“尽量”满足。比如,车辆有自适应巡航功能+车道保持功能,理论上就可以自己去行驶了。

但是这只是理论上,实际驾驶场景还有很多,不能够全部覆盖,比如:

24年5月,一位湖北襄阳的理想L9车主称,在高速上开启了辅助驾驶系统,车辆在行驶中检测到高处广告牌上的小货车图片,突然急刹导致追尾。经交警认定,车主负此次事故的全部责任。车主认为,由于是车辆的原因导致发生事故,还未上牌的新车变成了事故车,要求厂家赔偿2万元。 2023年5月,一辆理想L7在行驶过程中将苏炳添的广告牌识别成真人,紧急刹停被后车追尾。

https://pic1.zhimg.com/80/v2-5a49a7043257f597c4bce53fb82705d7_1440w.jpg

其实这样的类似问题还有很多,比如车道保持功能,在下雪天气是区分不了车道线的,所以这个时候的车道保持,是不好用的;比如华为的AEB功能,是限制车速的,过快车速,不好使。其实这些问题都有一个统一的说法:长尾问题。

自动驾驶长尾问题是指自动驾驶汽车中的边缘情况,即发生概率较低的可能场景。目前,自动驾驶的底层架构和大部分技术问题已经被解决,剩下的5%的长尾问题,逐渐成了制约自动驾驶发展的关键。这些问题包括各种零碎的场景、极端的情况和无法预测的人类行为


https://pic4.zhimg.com/80/v2-fbf9c4bfe2912763902697807607586b_1440w.jpg

而,解决这些问题,只能靠时间“磨”。时间久了,见到的场景多了,自驾软件就更加聪明了。

造成这样的结果的原因是,自动驾驶的开发模式导致的。

https://pic2.zhimg.com/80/v2-1777bbda824195c528e703c804dafb6d_1440w.jpg

我们让电脑工作,都是预先编号程序,有什么样的输出,做出什么样的结果,计算机循环往复的运行就可以了。

通常这套计算机程序有两种实现方式:

1.公式编程法:这样的方式是编程人员(人脑)预先认知世界,然后抽象出相关的公式和逻辑,然后依据逻辑进行编程。比如:if-else。

2.神经网络编程:后来随着我们人来要求电脑解决的问题越来越复杂(比如自动驾驶场景),我们人类已经无法利用“公式编程”的方法,覆盖所有问题场景。后来,算法编程人员在认知人脑”神经系统“的基础上,提出基于训练的编程方法。

人脑神经学习方式:我们小孩子出生后,大脑里只是一张空白的纸,人眼、耳朵,触摸等传感器的接触,不断训练我们的神经系统,建立学习认知能力。在训练的时候,我们可以简单的理解为我们人脑的“神经节”在不断的断裂和重连。

类比于人脑,编程人员预先在计算机里编制出一张庞大的“电子神经网络”,这些神经网络通过投票机制,不断的建立连接权重,建立选择关系。通过预先的训练,形成得到正确结果的能力。这种能力就被称为“人工智能”。

实践证明,自动驾驶过于复杂,必须通过“人工智能”的方式,才能最终实现。

而由于这种是训练出来的,那么训练的数据就成为的关键。训练数据是不是覆盖得全,覆盖得广,决定了自动驾驶实际使用的结果。

这就是为什么,问题中说到:智驾出问题很正常!

也正是基于这样的原因,现在的自动驾驶都是L3-,也就是需要人员监控。说白了就是现在自动驾驶系统就是不靠谱的,撞车的,怨车主,车主负责!

https://pic2.zhimg.com/80/v2-6b25f088a52ffaefd9ca36324713fc47_1440w.jpg

内容由作者提供,不代表易车立场

收藏

收藏成功 ! 去易车app查看收藏文章

活动推荐

广告
  • 奖 
  • 抢 
  • 奖 

相关车型

CopyRight © 2000-2023 BitAuto,All Rights Reserved. 版权所有 北京易车信息科技有限公司    购车咨询:4000-168-168 (周一至周日 9:00 – 21:00) 法定假日除外